Kernel trick или введение новых признаков F вместо исходных признаков X каждого объекта нужно
A) для создания нелинейного классификатора SVM
B) для ускорения сходимости SVM
C) для максимизации зазора
D) для решения задачи регрессии с помощью SVM
ANSWER: A
Большое значение параметра С в методе опорных векторов приводит к тому, что
A) модель склонна к переобучению и ловит выбросы
B) модель имеет более широкий зазор
C) модель склонна к недообучению
D) более гладкой границе решений
ANSWER: A
Какое из следующих равенств определяет границу решений двух линейно неразделимых классов в методе SVM? Здесь F - новые признаки, подсчитанные с применением функции близости (например, Гауссова ядра).\( 1) \ \theta^T X =0 \\ 2)\ \theta^T F =0 \\ 3) \ \theta ^T X = \pm 1 \\ 4)\ \theta^T F= \pm 1 \)
A) 2
B) 1
C) 3
D) 4
ANSWER: A
При использовании метода SVM
A) решается задача выпуклой оптимизации и мы всегда находим глобальный минимум
B) мы можем застрясть в локальном минимуме
C) нужно всегда использовать kernel trick и вводить новые признаки
ANSWER: A
